Text copied to clipboard!

Cím

Text copied to clipboard!

Big Data Mérnök

Leírás

Text copied to clipboard!
Big Data Mérnököt keresünk, aki szenvedélyesen dolgozik nagy mennyiségű adat feldolgozásán és elemzésén. A pozíció célja olyan adatfeldolgozó rendszerek tervezése, fejlesztése és karbantartása, amelyek képesek hatékonyan kezelni és feldolgozni petabájt nagyságrendű adatokat. A jelöltnek jártasnak kell lennie elosztott rendszerekben, adatfolyam-feldolgozásban, valamint különféle big data technológiákban, mint például Hadoop, Spark, Kafka és NoSQL adatbázisok. A Big Data Mérnök kulcsszerepet játszik az adatarchitektúra kialakításában, az ETL folyamatok optimalizálásában, valamint az adatok minőségének és elérhetőségének biztosításában. A pozíció szoros együttműködést igényel adatkutatókkal, szoftvermérnökökkel és üzleti elemzőkkel, hogy az adatokból üzleti értéket lehessen teremteni. A sikeres jelölt képes lesz komplex adatproblémák megoldására, skálázható adatcsatornák és adattárházak kialakítására, valamint a legújabb technológiák és eszközök alkalmazására a hatékonyság növelése érdekében. Fontos a magas szintű programozási tudás (pl. Java, Scala, Python), valamint a felhőalapú környezetek (AWS, Azure, GCP) ismerete. Elvárjuk a problémamegoldó képességet, a csapatmunkára való nyitottságot, valamint a folyamatos tanulás és fejlődés iránti elkötelezettséget. Ha szereted az adatokat, és szeretnél részt venni a jövő adatvezérelt megoldásainak kialakításában, akkor ez a pozíció neked szól.

Felelősségek

Text copied to clipboard!
  • Nagy mennyiségű adat feldolgozására alkalmas rendszerek tervezése és fejlesztése
  • ETL folyamatok kialakítása és optimalizálása
  • Adatfolyam-feldolgozó rendszerek implementálása (pl. Apache Kafka, Spark Streaming)
  • Adatminőség és adatbiztonság biztosítása
  • Adatarchitektúra és adattárházak kialakítása
  • Felhőalapú big data megoldások integrálása (AWS, Azure, GCP)
  • Együttműködés adatkutatókkal és más fejlesztőkkel
  • Dokumentációk készítése és karbantartása
  • Új technológiák és eszközök kutatása és bevezetése
  • Teljesítményoptimalizálás és skálázhatóság biztosítása

Elvárások

Text copied to clipboard!
  • Felsőfokú végzettség informatikai vagy kapcsolódó területen
  • Legalább 3 év tapasztalat big data rendszerek fejlesztésében
  • Tapasztalat Hadoop, Spark, Kafka, Hive vagy hasonló technológiákban
  • Programozási ismeretek Java, Scala vagy Python nyelveken
  • SQL és NoSQL adatbázisok ismerete
  • Felhőszolgáltatások (AWS, Azure, GCP) használatában szerzett tapasztalat
  • Verziókezelő rendszerek (pl. Git) ismerete
  • Jó problémamegoldó és analitikus gondolkodás
  • Önálló munkavégzésre való képesség és csapatmunkára való hajlandóság
  • Angol nyelvtudás szóban és írásban

Lehetséges interjú kérdések

Text copied to clipboard!
  • Milyen big data technológiákkal dolgozott korábban?
  • Van tapasztalata adatfolyam-feldolgozó rendszerek fejlesztésében?
  • Milyen programozási nyelveket használ napi szinten?
  • Dolgozott már felhőalapú környezetben? Ha igen, melyikben?
  • Hogyan biztosítja az adatok minőségét és konzisztenciáját?
  • Milyen kihívásokkal találkozott big data projektek során?
  • Használt már konténerizációs technológiákat (pl. Docker, Kubernetes)?
  • Hogyan optimalizálna egy lassan futó adatcsatornát?
  • Milyen adatbázisokat részesít előnyben és miért?
  • Hogyan követi a big data technológiák fejlődését?